دانشجو اکرم کلائی دانشجوی دکتری، دکتر سعید پارسا مورخ : تاریخ 12/18/ 1403 ساعت: 11:00 صبح از رساله دکتری خود با عنوان "تحلیل دامنه و تأثیر آن بر بهبود آزمونپذیری و شرح پذیری سیستمهای سایبر- فیزیکی مبتنی بر یادگیری ماشین " دفاع خواهند نمود. |
ارائه دهنده:
اکرم کلائی
استاد راهنما:
دکتر سعید پارسا
هیات داوران:
دکتر علی معینی
دکتر امید بوشهریان
دکتر بهروز مینایی بیدگلی
دکتر حسن نادری
زمان 18 اسفند ماه 1403
ساعت: : 11:00 صبح
مکان: دانشکده کامپیوتر، طبقه سوم، اتاق سمینار
چکیده پایان نامه :
مدلسازی ریاضی رفتار سیستمهای فیزیکی، زیربنای ساخت اغلب سیستمهای سایبر- فیزیکی است. مدل ریاضی، با مجموعهای از معادلات سازگار، رفتارها و ویژگیهای خاص سیستم را توصیف میکند. با این حال، برخی متغیرهای مؤثر ممکن است به دلیل ناآگاهی یا درک ناکافی طراحان پنهان بمانند، که میتواند منجر به خطا در مدل و پیشبینیهای نادرست شود. استفاده از مدلهای یادگیری ماشین برای توسعه مدلهایی که در شرایط جدید، پیشبینیهای قابل اعتماد ارائه دهند، یک راهحل است. اما به دلیل ماهیت جعبه سیاه این مدلها، پیشبینی و تأیید رفتار آنها در شرایط غیرمنتظره دشوار است. این چالشها، سیستمهای سایبر-فیزیکی مبتنی بر یادگیری ماشین را، به ویژه در کاربردهای ایمنی- بحرانی، با ضعف آزمونپذیری و شرحپذیری مواجه کرده است. مروری بر ادبیات موضوع، نشان از تمرکز پژوهشها بر روشهای جعبه سیاه به دلیل رابطه ضعیف معیارهای پوشش جعبه سفید با کشف خطا دارد. این روشها به دنبال دادههای آزمون متنوع و نقضکننده ملزومات کارکردی/ ایمنی میگردند، در حالی که منطق تصمیمگیری سیستم در واکنش به رویدادهای محیطی را نادیده میگیرند. در حقیقت، مسئله آزمون و شرح رفتار در این سیستمهای پیچیده، یک مسئله مبتنی بر تحلیل دامنه است و باید به دنبال علل خطای دامنه بود. در تحلیل دامنه، فضای ورودی سیستم بر مبنای مشخصات نرمافزار به دامنههای مجزا افراز و هر دامنه به یک مسیر یا رفتار خاص تخصیص داده میشود. این تحلیل به شناسایی و تعریف ویژگیها و رفتارهای سیستم در شرایط مختلف کمک میکند. هدف اصلی این رساله، بهکارگیری تحلیل دامنه همگام با فنون آزمون مبتنی بر جستجو برای بهبود کشف و شرح رفتارهای نادرست در سیستمهای سایبر-فیزیکی مبتنی بر یادگیری است. اساس راهکارهای پیشنهادی، تعیین مسیرهای بحرانی آزمون با توجه به میزان تعامل سیستم با محیط و مشارکت در منطق تصمیمگیری سیستم، توجه به بحرانخیزی نواحی مختلف ورودی هنگام تولید دادههای آزمون و پوشش دامنه رفتاری مسیرهای بحرانی است. هر روش پیشنهادی برای یک مصنوع آزمون خاص از سیستمهای سایبر- فیزیکی مبتنی بر یادگیری طراحی شده است. روش اول، با توجه به تحلیل دامنه و منطق تصمیمگیری شبکه عصبی ژرف با وظیفه پیشبینی، معیاری جدید برای تولید داده آزمون پیشنهاد میدهد. این روش، با تبدیل مسئله تولید داده آزمون به یک بهینهسازی چندهدفه، امکان کشف موارد آزمون لبه و بحرانی را فراهم میکند. این موارد میتوانند عملکرد مدل را تحت شرایط پیشبینی نشده به چالش بکشند. روش دوم، بر آزمون شبکههای عصبی ژرف با وظیفه طبقهبندی متمرکز است و معیار جدیدی برای برآورد اثر جمعی عصبها بر خروجی ناموفق مدل ارائه میدهد. این روش با استفاده از فنون مکانیابی خطای مبتنی بر طیف و روش گرادیان افزایشی چندمرحلهای، مجموعه داده جدیدی تولید میکند که دقت کشف و شرح ریشههای خطای مدل را بهبود میبخشد. روش سوم، به آزمون مؤلفههای تصمیمگیری مبتنی بر قواعد میپردازد و با طراحی یک معیار رفتار-محور، مسیرهای بحرانی را شناسایی میکند. این روش با تبدیل مسئله تولید داده آزمون به یک بهینهسازی چندهدفه، کارایی تعیین شرایط رفتاری سیستم را بهبود میدهد و به شناسایی مواردی که ممکن است در تصمیمگیریهای حساس سیستم نقص ایجاد کنند، کمک میکند. روش چهارم نیز بر آزمون مؤلفههای تصمیمگیری مبتنی بر شبکه عصبی ژرف تمرکز دارد و با طراحی یک سنجه مخاطره، معیار جدیدی برای تولید داده آزمون ارائه میدهد که نواحی بحرانی ورودی را شناسایی میکند. پوشش این معیار، با تبدیل مسئله تولید داده آزمون به یک بهینهسازی چندهدفه، به تولید مجموعه آزمون متنوعی میانجامد که به توصیف دقیقتر شرایط رفتاری سیستم کمک میکند. زمان اجرای آزمونها نیز با استفاده از یک مدل جایگزین جمعی-تقویتی کاهش مییابد. برای ارزیابی عملکرد راهکارهای پیشنهادی و مقایسه با روشهای مبنا، آزمایشهای گستردهای بر روی مجموعهای از مدلهای شبکه عصبی ژرف و کد منبع چندین سیستم سایبر-فیزیکی در حوزه خودروهای خودران انجام شده است. معیارهای ارزیابی شامل سنجههای متنوعی از آزمونپذیری و شرحپذیری بوده و از مجموعه دادههای معتبر و استاندارد برای این کار استفاده شده است. نتایج بدستآمده نشان میدهد که راهکارهای پیشنهادی در مقایسه با روشهای مبنا بهبود قابلتوجهی در آزمونپذیری (تا 65%) و شرحپذیری (تا 69%) داشتهاند. تحلیلهای آماری نیز تفاوت معنیدار روشهای پیشنهادی و مبنا را تأیید میکند.
Abstract
Mathematical modeling of the behavior of physical systems forms the foundation for constructing most cyber-physical systems. A mathematical model, through a set of consistent equations, describes the specific behaviors and characteristics of the system. However, some influential variables may remain hidden due to the designers' lack of awareness or insufficient understanding, leading to errors in the model and incorrect predictions. Using machine learning models to develop models that provide reliable predictions under new conditions is one solution. However, due to the black-box nature of these models, predicting and verifying their behavior under unexpected conditions is challenging. These challenges have rendered machine learning-based cyber-physical systems particularly problematic in terms of testability and explainability, especially in safety-critical applications. A review of the literature shows that research has focused on black-box methods due to the weak relationship between white-box coverage criteria and fault detection. These methods seek diverse test data and violations of functional/safety requirements, while ignoring the system's decision-making logic in response to environmental events. The issue of testing and explaining behavior in these complex systems is a domain-driven problem, and it is crucial to identify the root causes of domain errors. In domain analysis, the system's input space is partitioned into distinct domains based on software specifications, with each domain allocated to a specific path or behavior. This analysis helps identify and define the system's features and behaviors under various conditions. The main objective of this dissertation is to employ domain analysis in conjunction with search-based testing techniques to improve the discovery and explanation of incorrect behaviors in machine learning-based cyber-physical systems. The proposed approaches focus on identifying critical test paths based on the system's level of interaction with the environment and its involvement in decision-making logic, considering the riskiness of different input areas during test data generation, and covering the behavioral range of critical paths. Each proposed method is designed for a specific test artifact within machine learning-based cyber-physical systems. The first method, based on domain analysis and the model's decision-making logic, proposes a new criterion for generating test cases. This method focuses not only on data diversity but also on how the model reacts to inputs and interacts with the environment. This approach enables the discovery of edge and critical test cases that can challenge the model's performance under unforeseen conditions. The second method focuses on testing deep neural networks for classification tasks and introduces a new criterion for assessing the collective effect of neurons on the model's unsuccessful output. Using spectrum-based fault localization techniques and a multi-step gradient ascent method, this approach generates a new dataset that improves the accuracy of identifying and explaining the model's root causes of failure. The third method tests rule-based decision-making components by designing a behavior-based criterion to identify critical paths. By converting the issue of generating test cases into a multi-objective optimization problem, this method enhances the efficiency of determining the system's behavioral conditions and helps identify potential flaws in critical decision-making scenarios. The fourth method focuses on testing decision-making components based on deep neural networks and introduces a new criterion, the risk metric, for generating test data that identifies high-risk input areas. By turning the generation of test data into a multi-objective optimization problem, this approach produces a diverse set of test cases that aid in better describing the system's behavioral conditions. The time overhead for running the tests is also reduced using a collective-reinforcement surrogate model. To evaluate the performance of the proposed approaches and compare them with baseline methods, extensive experiments were conducted on a set of deep neural network models and the source code of several cyber-physical systems in the domain of autonomous vehicles. The evaluation criteria included various metrics for testability and explainability, using validated and standard datasets. The results show that the proposed approaches have significantly improved testability (by up to 65%) and explainability (by up to 69%) compared to baseline methods. Statistical analyses also confirm the significant difference between the proposed and baseline methods.
|